恢复质量差的图像与一组混合伪影对于可靠的诊断起着至关重要的作用。现有的研究集中在特定的恢复问题上,例如图像过度,去核和暴露校正,通常对伪影类型和严重性有很强的假设。作为盲X射线恢复的先驱研究,我们提出了一个通用图像恢复和分类的联合模型:恢复分类为分类的生成对抗网络(R2C-GAN)。这种共同优化的模型使恢复后保持任何疾病完整。因此,由于X射线图像质量的提高,这自然会导致更高的诊断性能。为了实现这一关键目标,我们将恢复任务定义为图像到图像的翻译问题,从差异,模糊或暴露不足/暴露不足的图像到高质量的图像域。提出的R2C-GAN模型能够使用未配对的训练样本在两个域之间学习前进和逆变换。同时,联合分类在恢复过程中保留了疾病标签。此外,R2C-GAN配备了操作层/神经元,可降低网络深度,并进一步增强恢复和分类性能。拟议的联合模型对2019年冠状病毒病(COVID-19)分类的卡塔-COV19数据集进行了广泛的评估。拟议的恢复方法达到了90%以上的F1得分,这显着高于任何深层模型的性能。此外,在定性分析中,R2C-GAN的恢复性能得到了一群医生的批准。我们在https://github.com/meteahishali/r2c-gan上共享软件实施。
translated by 谷歌翻译
心肌梗塞(MI)是世界上死亡率的主要原因,由于饲喂心肌的冠状动脉堵塞。通过促进早期治疗干预措施,MI及其本土化的早期诊断可以减轻心肌损伤的程度。在冠状动脉堵塞后,缺血性心肌细分的区域壁运动异常(RWMA)是最早进入的变化。超声心动图是评估任何RWMA的基本工具。仅从单个超声心动图视图评估左心室(LV)壁的运动可能导致缺少MI的诊断,因为RWMA可能在该特定视图上不可见。因此,在本研究中,我们建议熔化顶端4室(A4C)和顶端2室(A2C)视图,其中可以分析总共11个心肌段的MI检测。所提出的方法首先通过活性多项式(AP)估计LV壁的运动,其提取并跟踪心内膜边界以计算心肌段位移。从A4C和A2C视图位移中提取的特征,该位移融合并馈送到分类器中以检测MI。本研究的主要贡献是1)通过包括A4C和A2C视图的共同分享与研究界的260个超声心动图录制,2)提高了阈值前后工作的性能基于机器学习的方法基于机器的AP,3)通过融合A4C和A2C视图的信息来通过多视图超声心动图进行先驱MI检测方法。实验结果表明,该方法达到了90.91%的敏感性和86.36%的MI检测精度,对多视角超声心动图进行了多视觉检测。
translated by 谷歌翻译